Národní úložiště šedé literatury Nalezeno 45 záznamů.  1 - 10dalšíkonec  přejít na záznam: Hledání trvalo 0.00 vteřin. 
Hraní her pomocí neuronových sítí
Buchal, Petr ; Kolář, Martin (oponent) ; Hradiš, Michal (vedoucí práce)
Cílem této práce je naučit neuronovou síť pohybu v prostředích s klasickou kontrolou řízení, hraní tahové hry 2048 a několika Atari her. Jedná se o oblast zpětnovazebního učení. Jako zpětnovazební algoritmus využívající neuronové sítě jsem použil Hluboké Q-učení. Ten jsem pro zvýšení efektivity učení obohatil o několik vylepšení. Mezi vylepšení patří přidání cílové sítě, DDQN, duální architektura neuronové sítě a prioritní vzpomínková paměť. Experimenty s klasickou kontrolou řízení zjistily, že nejvíce zvedá efektivitu učení přidání cílové sítě. V prostředích her dosáhlo Hluboké Q-učení několikanásobně lepších výsledků než náhodný hráč. Výsledky a jejich analýza mohou být využity ke vhledu do problematiky zpětnovazebních algoritmů využívajících neuronové sítě a zdokonalení použitých postupů.
Řízení entit ve strategické hře založené na multiagentních systémech
Knapek, Petr ; Kočí, Radek (oponent) ; Zbořil, František (vedoucí práce)
Tato práce se zaměřuje na návrh a implementaci systému podpory učení a plánování agentů schopných hry real-time strategických her typu StarCraft. Budou vysvětleny problémy ovládání herních objektů a protivníků počítačem a představeny obvykle používané způsoby řešení. Na základě analýzy je navržen a implementován nový systém využívající multiagentního přístupu k ovládání hry a metod strojového učení, který je schopný porážet protivníky a přizpůsobovat se novým výzvám.
Využití opakovaně posilovaného učení pro řízení čtyřnohého robotu
Ondroušek, Vít ; Maga,, Dušan (oponent) ; Maňas, Pavel (oponent) ; Singule, Vladislav (oponent) ; Březina, Tomáš (vedoucí práce)
Disertační práce je zaměřena na využití opakovaně posilovaného učení pro řízení chůze čtyřnohého robotu. Hlavním cílem je předložení adaptivního řídicího systému kráčivého robotu, který budem schopen plánovat jeho chůzi pomocí algoritmu Q-učení. Tohoto cíle je dosaženo komplexním návrhem třívrstvé architektury založené na paradigmatu DEDS. Předkládané řešení je vystavěno na návrhu množiny elementárních reaktivních chování. Prostřednictvím simultáních aktivací těchto elementů je vyvozena množina kompozitních řídicích členů. Obě množiny zákonů řízení jsou schopny operovat nejen na rovinném, ale i v členitém terénu. Díky vhodné diskretizaci spojitého stavového prostoru je sestaven model všechn možných chování robotu pod vlivem aktivací uvedených základních i složených řídicích členů. Tento model chování je využit pro nalezení optimálních strategií řízení robotu prostřednictvím schématu Q-učení. Schopnost řídicí jednotky je ukázána na řešení tří komplexních úloh: rotace robotu, chůze robotu v přímém směru a chůze po nakloněné rovině. Tyto úlohy jsou řešeny prostřednictvím prostorových dynamických simulací čtyřnohého kráčivého robotu se třemi stupni volnosti na každou z noh. Výsledné styly chůze jsou vyhodnoceny pomocí kvantitativních standardizovaných ukazatelů. Součástí práce jsou videozáznamy verifikačních experimentů ukazující činnost elementárních a kompozitních řídicích členů a výsledné naučené styly chůze robotu.
Posilované učení pro hraní robotického fotbalu
Bočán, Hynek ; Škoda, Petr (oponent) ; Smrž, Pavel (vedoucí práce)
Tato práce se zabývá tvorbou umělé inteligence schopné ovládat robotického hráče fotbalu simulovaného v prostředí SimSpark. Vytvořená umělá inteligence rozšiřuje již hotového agenta, který poskytuje implementaci základních dovedností jako je orientace na hřišti, pohyb v osmi směrech a nebo driblování s balonem. Umělá inteligence se stará o výběr nejvhodnější akce v závislosti na situaci na hřišti. Pro její implementaci byla použita metoda posilovaného učení - Q-learning. Pro výběr nejlepší akce je situace na hřišti převedena do formy 2D obrazu s několika rovinami. Tento obraz je následně analyzován hlubokou konvoluční neuronovou sítí implementované pomocí C++ knihovny DeepCL.
Řízení boje ve hře Starcraft II pomocí umělé inteligence
Krajíček, Karel ; Fajčík, Martin (oponent) ; Smrž, Pavel (vedoucí práce)
Táto práca sa zaoberá využitím umelej inteligencie a návrh funkčného modulu pre strategickú hru StarCraft II. Riešenie využíva neurónové siete a Q-learning pre boj. Pre implementáciu systému a jej prepojenie s hrou StarCraft používam StarCraft 2 Learning Environment. Vyhodnotenie systému je založené na jej schopnosti vykonať pokrok.
Umělá inteligence pro hraní her
Bayer, Václav ; Škoda, Petr (oponent) ; Smrž, Pavel (vedoucí práce)
Práce se zabývá metodami umělé inteligence aplikovanými pro hraní strategických her, ve kterých probíhá veškerá interakce v reálném čase (tzv. real-time strategic - RTS). V práci se zabývám zejména metodu strojového učení Q-learning založenou na zpětnovazebním učení a Markovovu rozhodovacím procesu. Praktická část práce je implementována pro hraní hry StarCraft: Brood War.Mnou navržené řešení, implementované v rámci pravidel soutěže SSCAIT, se učí sestavit optimální konstrukční pořadí budov dle hracího stylu oponenta. Analýza a vyhodnocení systému jsou provedeny srovnáním s ostatními účastníky soutěže a rovněž na základě sady odehraných her a porovnání počátečního chování s výsledným chováním natrénovaným právě na této sadě.
Deep Learning AI in Game Environments
Glós, Kristián ; Bobák, Petr (oponent) ; Polášek, Tomáš (vedoucí práce)
This thesis is focused on analysing deep learning algorithms and their ability to complete given tasks implemented in game environments created via the Unity game engine. Secondary objective was to research and specify possible use-cases of deep learning during game development. The algorithms used fall into Reinforcement learning, Imitation learning and Neuroevolution, while Reinforcement learning was used throughout the whole game scene development cycle. Analysis and results were collected through training the networks in different game scene states and other factors.
Posilované učení pro hraní robotického fotbalu
Brychta, Adam ; Švec, Tomáš (oponent) ; Smrž, Pavel (vedoucí práce)
Tato práce se zabývá vytvořením agenta pro hraní robotického fotbalu. V práci používám metodu hlubokého Q-učení, která využívá hlubokou neuronovou síť. Praktická část práce se zabývá implementací agenta pro posilované učení. Cílem agenta je vybrat nejlepší akci pro daný stav prostředí. Trénování agenta probíhá v různých scénářích situací na hřišti. Výsledek této práce ukazuje přístup k hraní fotbalu pomocí strojového učení.
Na simulaci založený vývoj systému řízení distribuce tepla
Tomeček, Jan ; Rozman, Jaroslav (oponent) ; Janoušek, Vladimír (vedoucí práce)
Tato práce se zabývá optimalizací ohřevu bojleru z externích zdrojů. V práci jsem vytvořil simulační model systému ohřevu vody. Následně jsem pomocí simulačního modelu navrhl možné optimalizace řízení ohřevu vody. Použitou metodou pro optimalizaci byl algoritmus hlubokého Q-učení. Výsledek této práce ukazuje vyžití simulace pro vývoj a optimalizaci řídících systémů.
Plánování cesty robotu pomocí posilovaného učení
Veselovský, Michal ; Liška, Radovan (oponent) ; Dvořák, Jiří (vedoucí práce)
Tato práce se zabývá plánováním cesty pro autonomního robota v prostředí se statickými překážkami. Součástí práce je analýza různých přístupů k plánování cesty robota, a v implementační části popis metod využívajících posilovaného učení a experimenty s nimi. Hlavními výstupy práce jsou funkční algoritmy pro plánování cesty založené na Q-učení, ověření jejich funkčnosti a vzájemné srovnání.

Národní úložiště šedé literatury : Nalezeno 45 záznamů.   1 - 10dalšíkonec  přejít na záznam:
Chcete být upozorněni, pokud se objeví nové záznamy odpovídající tomuto dotazu?
Přihlásit se k odběru RSS.